跳到主要内容

Comfyui 框架

开始使用

项目地址 GitHub,官方文档的 教程地址,如果看不懂文档,可以看官方的 互动小说教程

官方的 Node 介绍文档

直接在 资源页 下载就行了

下载好后,把模型文件放在

ComfyUI\models\checkpoints

更新的时候,只需直接运行

update\update_comfyui.bat

点击就可以生成了

配置模型

ComfyUI 虽然自带了 pytorch 和 stable diffusion 环境,但是不包括模型,所以需要将模型放置到 ComfyUI 对应目录中:

如果你使用过 WebUI,那么你的模型文件通常是放在 stable-diffusion-webui 目录下的,复制过来就会很浪费空间,所以 ComfyUI 的作者提供了将 WebUI 中存放的模型链接进来的功能:

在 ComfyUI 目录中找到这个叫做 extra_model_paths.yaml.example 的文件,并将后缀名 example 去掉:

修改下面的路径就行了

a111:
base_path: path/to/stable-diffusion-webui/

各个节点介绍

输入阶段

模型输入,图片输入,等。负责载入模型和图片。

模型载入节点将模型分成了

  • 模型
  • clip层
  • VAE

clip 层会在关键词编码的时候使用,VAE会在图片编码解码(图片RGB空间与潜空间转换)时使用

图片节点可以载入图片并转换到潜空间,或者创建新的潜空间空图片,这里可以定义生成图片的大小

Clip 阶段

clip 跳过,clip 编码器,lora,controlnet 都在这个阶段。

Clip 文字编码器节点,正面和负面分成两个节点

注意看下面有个 Empty Latent Image,这是因为我们是 text2img ,所以只需要一个空的潜空间就行了

Unet 阶段

ksampler 节点,负责在潜空间生成图片。

KSampler 节点,Unet 生成潜空间图品的地方,参数和 webui 中的生成参数基本上相同。

Vae 解码阶段

将生成的图片从潜空前转换成 RGB 色彩空间。

Vae 解码节点,这里可以链接不同的 VAE 来得到不同的解码结果。

ControlNet 使用

References